EL RIESGO DE CHATGPT
El riesgo de ChatGPT
Por Ricardo Baeza Weinmann – Pressenza
¿Alguien le pediría a un actor talentoso no sólo que actúe y hable como un experto cirujano de manera convincente, sino que además le permitiría luego que tomara un bisturí y lo operara? Parecería una estupidez ¿no? Pues bien, eso es precisamente lo que muchos están haciendo con ChatGPT.
Creo que el principal riesgo a corto plazo de esta inteligencia artificial (IA) no está en que vaya a reemplazar el trabajo de mucha gente, sino en que las personas se convenzan de que hace cosas que en verdad no hace. Porque muchos, sino la mayoría, la están usando como que fuera una suerte de Google, un intermediario entre la ignorancia personal y la infinita disposición de conocimiento que hay en la red, lo que es un tremendo error.
El objetivo de ChatGPT es y siempre ha sido simular un diálogo humano que parezca real. Jamás ha pretendido «decir verdades», sino más bien «decir cosas que suenen creibles», lo que es muy diferente. Por eso no tiene ningún conflicto con deslizar información errónea, o de frentón inventar datos, si es que aquello le sirve para aparentar un mayor realismo en su discurso.
Un usuario que conozca bastante del tema que se está «conversando» con ChatGPT, estará en condiciones de evaluar bien si todo lo que dice es cierto o no. Por ejemplo, un programador que le pide líneas de código podrá verificar rápidamente si funcionan o no; un especialista se dará cuenta de si está inventando fechas, artículos o autores; un verdadero fan aficionado detectará imprecisiones sobre datos de la vida de su artista preferido. Pero un usuario que no sabe tanto del tema ¿cómo podría evaluar eso? ¿Cómo diferenciaría lo que es verdadero de lo que no dentro de todo lo que dice?
Ahi creo que radica el mayor peligro de este tipo de IAs, que comiencen a ser usadas masivamente por personas incapaces de evaluar la precisión de su contenido. Que le empiecen a creer todo sin ningún tipo de cuestionamiento, e incluso que lleguen a tomar decisiones relevantes basadas en dicha información.
Las herramientas nunca son buenas o malas en sí, de no mediar la intencionalidad y destreza de quien las utiliza. Una gubia en manos de un gran ebanista puede crear una obra de arte, mientras que en manos de un inexperto ignorante puede llegar a generar destrozos y hasta herirse seriamente en el proceso (y en manos de un criminal convertirse en un arma blanca con la que matar a alguien). Ojalá no caigamos en ese error con las IAs, pues las consecuencias de un uso acrítico de ellas podría llegar a ser altamente incierto y hasta muy peligroso. Lo que, por supuesto, no es culpa de la IA sino de la ineptitud o maliciosidad de quien la utiliza.